过拟合处理

过拟合定义:模型在训练集上的表现很好,但在测试集和新数据上的表现很差。

训练集上的表现测试集上的表现结论
不好不好欠拟合
不好过拟合
适度拟合
 

原因

训练数据集太小,过拟合出现的原因:

  1. 模型复杂度过高,参数过多
  2. 训练数据比较小
  3. 训练集和测试集分布不一致
    • 样本里面的噪声数据干扰过大,导致模型过分记住了噪声特征,反而忽略了真实的输入输出特征
    • 训练集和测试集特征分布不一样(如果训练集和测试集使用了不同类型的数据集会出现这种情况)

解决方案

1、降低模型复杂度

  处理过拟合的第一步就是降低模型复杂度。为了降低复杂度,我们可以简单地移除层或者减少神经元的数量使得网络规模变小。与此同时,计算神经网络中不同层的输入和输出维度也十分重要。虽然移除层的数量或神经网络的规模并无通用的规定,但如果你的神经网络发生了过拟合,就尝试缩小它的规模。

2、增加更多数据:使用更大的数据集训练模型

3、数据增强

  使用数据增强可以生成多幅相似图像。这可以帮助我们增加数据集规模从而减少过拟合。因为随着数据量的增加,模型无法过拟合所有样本,因此不得不进行泛化。计算机视觉领域通常的做法有:翻转、平移、旋转、缩放、改变亮度、添加噪声等等,音频数据增强方法有:增加噪音、增加混响、时移、改变音调和时间拉伸

4、正则化

  在损失函数后面加一个正则化项,常见的有L1正则化和L2正则化

L1惩罚项的目的是使权重绝对值最小化。公式如下:

L(x, y) \equiv \sum_{i=1}^{n}\left(y_{i}-h_{\theta}\left(x_{i}\right)\right)^{2}+\lambda \sum_{i=1}^{n}\left|\theta_{i}\right|

L2惩罚项的目的是使权重的平方最小化。公式如下:

L(x, y) \equiv \sum_{i=1}^{n}\left(y_{i}-h_{\theta}\left(x_{i}\right)\right)^{2}+\lambda \sum_{i=1}^{n} \theta_{i}^{2}

以下表格对两种正则化方法进行了对比:

L1正则化L2正则化
1. L1惩罚权重绝对值的总和1. L2惩罚权重平方和的总和
2. L1生成简单、可解释的模型2. L2正则化能够学习复杂数据模式
3. L1受极端值影响较小3. L2受极端值影响较大

  如果数据过于复杂以至于无法准确地建模,那么L2是更好的选择,因为它能够学习数据中呈现的内在模式。而当数据足够简单,可以精确建模的话,L1更合适。对于我遇到的大多数计算机视觉问题,L2正则化几乎总是可以给出更好的结果。然而L1不容易受到离群值的影响。所以正确的正则化选项取决于我们想要解决的问题。

5、dropout

  dropout 是一种避免神经网络过拟合的正则化技术。像L1和L2这样的正则化技术通过修改代价函数来减少过拟合。而丢弃法修改神经网络本身。它在训练的每一次迭代过程中随机地丢弃神经网络中的神经元。当我们丢弃不同神经元集合的时候,就等同于训练不同的神经网络。不同的神经网络会以不同的方式发生过拟合,所以丢弃的净效应将会减少过拟合的发生。

  如上图所示,丢弃法被用于在训练神经网络的过程中随机丢弃神经网络中的神经元。这种技术被证明可以减少很多问题的过拟合,这些问题包括图像分类、图像切割、词嵌入、语义匹配等问题。

6、早停

  如上图所示,在几次迭代后,即使训练误差仍然在减少,但测验误差已经开始增加了。

7、重新清洗数据:把明显异常的数据剔除

8、使用集成学习方法:把多个模型集成在一起,降低单个模型的过拟合风险

9、批量正则化(BN)

  就是将卷积神经网络的每层之间加上将神经元的权重调成标准正态分布的正则化层,这样可以让每一层的训练都从相似的起点出发,而对权重进行拉伸,等价于对特征进行拉伸,在输入层等价于数据增强。注意正则化层是不需要训练。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值